home *** CD-ROM | disk | FTP | other *** search
/ SGI Varsity Update 1998 August / SGI Varsity Update 1998 August.iso / dist / dist6.4 / pvm.idb / usr / relnotes / mpt / ch2.z / ch2
Text File  |  1998-07-29  |  10KB  |  306 lines

  1. Chapter 2. New Features
  2.  
  3. This chapter describes the new features of the MPI, PVM, and SHMEM products
  4. contained in the Cray Message Passing Toolkit and Message Passing Toolkit
  5. for IRIX (MPT), releases 1.2, 1.2.0.2, and 1.2.1. The newest features, those
  6. of release 1.2.1, are described first.
  7.  
  8. 2.1 MPT Release 1.2.1 Features
  9.  
  10. The main features of the MPT 1.2.1 release are as follows:
  11.  
  12.    * Support for checkpoint and restart of a limited class of MPI
  13.      applications on IRIX systems
  14.  
  15.    * Support for Miser submission of MPI jobs on a single IRIX system
  16.  
  17.    * Addition of IGET and IPUT functions in the libsma library for Cray PVP
  18.      systems
  19.  
  20.    * Addition of MPI_Type_get_envelope and MPI_Type_get_contents functions
  21.      on UNICOS/mk systems
  22.  
  23.    * New functions available on IRIX systems
  24.  
  25. The following sections describe these features.
  26.  
  27. 2.1.1 Checkpoint and Restart of MPI Jobs
  28.  
  29. MPT release 1.2.1 supports checkpoint and restart of MPI jobs that consist
  30. of a single executable file on IRIX systems. Jobs such as the one in the
  31. following example can be checkpointed, provided all of the objects can be
  32. checkpointed:
  33.  
  34. mpirun -np n ./a.out
  35.  
  36. In this release, jobs that consist of more than one executable file cannot
  37. be checkpointed (for example, mpirun 2 ./a.out : 2 ./b.out). For more
  38. information, see the -cpr option on the mpirun(1) command.
  39.  
  40. 2.1.2 MPI and Miser
  41.  
  42. Miser is a job scheduling feature in the IRIX 6.5 release. MPT release 1.2.1
  43. supports Miser submission of MPI jobs that run on a single IRIX system. For
  44. more information, see the -miser option on the mpirun(1) command.
  45.  
  46. 2.1.3 IGET and IPUT Functions
  47.  
  48. The SHMEM IGET and IPUT strided copy functions have been added to the libsma
  49. library for Cray PVP systems.
  50.  
  51. 2.1.4 MPI_Type_get_envelope and MPI_Type_get_contents Functions
  52.  
  53. The MPI_Type_get_envelope and MPI_Type_get_contents functions, defined in
  54. the MPI-2 standard, have been added for UNICOS/mk systems. These functions
  55. query for information about the internal structure of an MPI derived data
  56. type.
  57.  
  58. 2.1.5 New Functions for IRIX Systems
  59.  
  60. The shmem_set_lock(3), shmem_clear_lock(3), and shmem_test_lock(3) functions
  61. are now available on IRIX systems.
  62.  
  63. 2.2 MPT Release 1.2.0.2 Features
  64.  
  65. The MPT 1.2.0.2 update release provides compile-time interface checking for
  66. Fortran SHMEM subroutine calls. A SHMEM interface definition module called
  67. shmem_interface is added to permit Fortran 90 programmers to verify
  68. correctness of SHMEM subroutine calls at compile time. This feature is
  69. available on IRIX systems only.
  70.  
  71. To activate interface checking, specify the -auto_use shmem_interface option
  72. on the f90 command line, as in the following example:
  73.  
  74. f90 -64 -auto_use shmem_interface -LANG:recursive=on program.f -lsma
  75.  
  76. This feature is dependent on Fortran 90 compiler release 7.2.1 or higher.
  77. Previous versions cannot process the shmem_interface definition module nor
  78. can they process the -auto_use command line option. For installations in
  79. which MPT 1.2.0.2 is installed in an alternate location, this feature is
  80. also dependent on the mpt and MIPSpro module files from the Modules Software
  81. version 2.2.1.1 package. To determine if your Modules Software is of the
  82. proper level, enter the following command:
  83.  
  84. versions modules
  85.  
  86. 2.3 MPT Release 1.2 Features
  87.  
  88. The main features of the MPT 1.2 release are as follows:
  89.  
  90.    * MPI for UNICOS systems is now based on the Silicon Graphics proprietary
  91.      implementation rather than on the MPICH implementation. The new
  92.      implementation uses Array Services software, which is included in the
  93.      required UNICOS versions for this release. For software requirements,
  94.      see Section 6.1.
  95.  
  96.    * Additional SHMEM functionality for IRIX systems.
  97.  
  98.    * Common documentation set for MPT on all platforms.
  99.  
  100.    * Bugfixes for all products.
  101.  
  102. 2.3.1 MPI Mixed Communication Modes for UNICOS Systems
  103.  
  104. New functionality allows an MPI application to run between two machines by
  105. using TCP/IP for communication, while the parts of the MPI application that
  106. run within each machine can use the Cray Research optimized shared memory
  107. mode for communication.
  108.  
  109. 2.3.2 New MPI Environment Variable for IRIX and UNICOS .login Files
  110.  
  111. The MPI_ENVIRONMENT environment variable has been added to allow users to
  112. create the login session as part of an MPI job.
  113.  
  114. 2.3.3 MPI Support for HIPPI Bypass on IRIX Systems
  115.  
  116. MPI now uses the HIPPI bypass protocol for jobs that use up to 64 processors
  117. on each system in a cluster. In previous releases, HIPPI bypass was
  118. restricted to jobs that used 32 processors or less.
  119.  
  120. 2.3.4 MPI Buffering Restrictions Eliminated on IRIX and UNICOS Systems
  121.  
  122. MPI now buffers messages of all sizes. In previous IRIX releases, buffering
  123. was restricted to messages of 16 kilobytes or less. As a result of lifting
  124. this restriction, HIPPI bypass is now used for messages of all sizes on IRIX
  125. systems. In previous UNICOS releases, no buffering was done.
  126.  
  127. 2.3.5 MPI Handling of stdout/stderr Messages on IRIX and UNICOS Systems
  128.  
  129. All messages for stdout and stderr are now displayed on MPI process 0,
  130. regardless of which MPI process originated the message. A new environment
  131. variable, MPI_PREFIX, allows users to display a prefix for each message. For
  132. example, the user can specify that each message be prefixed with the MPI
  133. process number from which it originated.
  134.  
  135. 2.3.6 MPI Support for Third Party Products on IRIX Systems
  136.  
  137. MPI has been modified to allow third party products to be developed for use
  138. with MPI on IRIX systems. The following products are available from the
  139. respective organizations (URLs are included for more information):
  140.  
  141.    * LSF from Platform Computing (URL http://www.platform.com)
  142.  
  143.    * Dolphin TotalView from Dolphin Interconnect Solutions, Inc. (URL
  144.      http://www.dolphinics.com/tw/tvover.htm)
  145.  
  146.    * ROMIO from Argonne National Laboratory (URL
  147.      http://www.mcs.anl.gov/home/thakur/romio)
  148.  
  149. 2.3.7 MPI Support for CRAY T3E-900 System Optimization
  150.  
  151. MPI has been modified to automatically disable the streams coherency
  152. workaround if MPI is running on a CRAY T3E-900 system. This feature allows
  153. access to existing functionality that can help improve communication
  154. bandwidth. For example, with streams enabled, the MPI_BUFFER_MAX environment
  155. variable can now be set to 0 on CRAY T3E-900 systems to tell MPI to disable
  156. internal buffering. Previously, this environment variable was ignored unless
  157. streams were disabled. This support was also included in the MPT 1.1.0.4
  158. release.
  159.  
  160. 2.3.8 New mpirun(1) Command Options
  161.  
  162. New mpirun(1) command options for IRIX systems are as follows:
  163.  
  164.    * -array
  165.  
  166.    * -help
  167.  
  168.    * -prefix
  169.  
  170.    * -verbose
  171.  
  172.    * -nt
  173.  
  174. New mpirun(1) command options for UNICOS and UNICOS/mk include the multihost
  175. entries with the following options for the hosts:
  176.  
  177.    * -file
  178.  
  179.    * -np
  180.  
  181.    * -nt
  182.  
  183. For descriptions of these options, see the mpirun(1) man page.
  184.  
  185. 2.3.9 PVM Use of POSIX Shared Memory on IRIX Systems
  186.  
  187. PVM now uses POSIX shared memory rather than IRIX shared arenas for
  188. communication within a system. This results in improved robustness and
  189. performance.
  190.  
  191. 2.3.10 Alternate Remote Shell Command for PVM
  192.  
  193. Users can now override the default remote shell command used when launching
  194. slave PVM daemons. At startup, the master PVM daemon checks for the presence
  195. of the PVM_RSH environment variable. When present, this value is used for
  196. the remote shell command. This feature is supported on all platforms.
  197.  
  198. 2.3.11 New SHMEM Space Allocation Functions for IRIX Platforms
  199.  
  200. The following functions have been added to SHMEM for IRIX platforms:
  201.  
  202. shmalloc(3C)
  203.  
  204.      Allocates a block of memory
  205.  
  206. shfree(3C)
  207.  
  208.      Deallocates a block of memory
  209.  
  210. shrealloc(3C)
  211.  
  212.      Changes the size of a block of memory
  213.  
  214. SHPALLOC(3F)
  215.  
  216.      Allocates a block of memory
  217.  
  218. SHPCLMOVE(3F)
  219.  
  220.      Extends a block or copies the contents of a block into a larger block
  221.  
  222. SHPDEALLC(3F)
  223.  
  224.      Returns a block of memory to the symmetric heap
  225.  
  226. For syntax and details of these functions, see the man pages.
  227.  
  228. 2.3.12 SHMEM Job Placement Environment Variables for IRIX Platforms
  229.  
  230. The following environment variables have been added to control SHMEM job
  231. placement on IRIX systems:
  232.  
  233. Variable
  234.  
  235.      Description
  236.  
  237. SMA_DSM_OFF
  238.  
  239.      If set to any value, this variable deactivates processor-memory
  240.      affinity control. SHMEM processes will then run on any available
  241.      processor, regardless of whether it is near the memory associated with
  242.      that process.
  243.  
  244. SMA_DSM_VERBOSE
  245.  
  246.      When set to any value, this variable causes information about process
  247.      and memory placement to be printed to stderr.
  248.  
  249. SMA_DSM_PPM
  250.  
  251.      When set to an integer value, this variable specifies the number of
  252.      processors to be mapped to every memory. The default is 2.
  253.  
  254. SMA_DSM_TOPOLOGY
  255.  
  256.      This variable specifies the shape of the set of hardware nodes on which
  257.      the PE memories are allocated. This variable can be set to any of the
  258.      following values:
  259.  
  260.           free
  261.           cube
  262.           cube_fixed
  263.  
  264.      The default is free.
  265.  
  266. PAGESIZE_DATA
  267.  
  268.      This variable can be set to an integer value that specifies the desired
  269.      page size in kilobytes for program data areas. Supported values include
  270.      16, 64, 256, and 1024.
  271.  
  272. SMA_SYMMETRIC_SIZE
  273.  
  274.      This variable specifies the size in bytes of symmetric memory. This is
  275.      the size of static space plus per-PE symmetric heap size.
  276.  
  277. 2.3.13 New SHMEM Supercomputing API Routines for IRIX Systems
  278.  
  279. The following supercomputing application programming interface (API)
  280. routines have been added to SHMEM:
  281.  
  282.    * shmem_broadcast32(3)
  283.  
  284.    * shmem_broadcast64(3)
  285.  
  286.    * shmem_fcollect32(3)
  287.  
  288.    * shmem_fcollect64(3)
  289.  
  290.    * shmem_collect32(3)
  291.  
  292.    * shmem_collect64(3)
  293.  
  294.    * shmem_barrier(3)
  295.  
  296. For more information about these routines, see the man pages.
  297.  
  298. 2.3.14 Fortran Character Support in MPI for UNICOS/mk Systems
  299.  
  300. Fortran character support has been added so that messages that involve
  301. character data can be sent. This support was also included in the MPT
  302. 1.1.0.4 release.
  303.  
  304.  
  305. COPYRIGHT(c) 1998 Cray Research, Inc.
  306.